Werde Teil unseres Teams und starte bei der Allgeier Public ab Juli als BI / Data Warehouse & ODI Engineer (m/w/d), 100% Remote. Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Auch Du sollst wachsen, daher ist uns Deine persönliche und fachliche Entwicklung besonders wichtig.Du profitierst von einem erfahrenen Mentor, individuellen Einarbeitungskonzepten und Weiterbildungen sowie Projektverantwortung.Um Dein Vertrauen in uns zurückzugeben, bieten wir Dir ein attraktives Gehaltspaket (z.B.
Weitere Informationen zu unserem Angebot finden Sie unter: https://www.caritas-asylsozialberatung-pfaffenhofen.de/de/fluechtlings--und-integrationsberatung Sie sind verantwortlich für... die individuelle Beratung und Begleitung im Rahmen der Flüchtlings- und Integrationsberatung von Asylsuchenden und Menschen mit Migrationserfahrung aus EU/nicht EU Ländern im Landkreis Pfaffenhofen die konkrete Unterstützung bei Antragstellungen, Familiennachzug und der allgemeinen Orientierung in einem fremden Rechts-, Lebens- und Kulturbereich die Dokumentation der Beratung die interdisziplinäre Zusammenarbeit und gegenseitige Unterstützung im Team hinsichtlich der Beratungsorganisation die Netzwerkarbeit mit vielfältigen Kooperationspartnern, Ehrenamtlichen und Akteuren Öffentlichkeitsarbeit und Mitwirkung an der Arbeit in Gremien Im Rahmen der Tätigkeit als Mitglied im Leitungsteam des Fachdienstes Flucht und Migration: Gespräche mit Mitarbeitenden im Rahmen der Einarbeitung und kontinuierlichen Weiterentwicklung die Mitgestaltung der strategischen Ausrichtung des Fachdienstes die Sicherstellung der Wirtschaftlichkeit und das Berichtswesen Wir freuen uns auf Sie, weil Sie... ein erfolgreich abgeschlossenes Studium der Sozialen Arbeit als staatlich anerkannte/-r Sozialpädagoge/-in (Dipl., B.A., M.A.) oder einen vergleichbar anerkannten Abschluss nachweisen können sozial- und asylrechtliche Kenntnisse vorweisen und Interesse an rechtlichen Fragestellungen haben bzw. sich aneignen möchten eine gültigen Führerschein Klasse B besitzen sozialpädagogische Beratungsansätze mit klaren und strukturieren Vorgehen anwenden interkulturelle Kompetenz sowie Verständnis und Interesse an Strukturen und politischen Zusammenhängen mitbringen ein partizipatives Führungsverständnis und Ambiguitätstoleranz einbringen herausfordernden Situationen resilient und professionell begegnen eine wertschätzende und ressourcenorientierte Haltung mitbringen Ihren Arbeitsalltag gerne selbständig und eigenverantwortlich organisieren sich mit den Zielen und Werten der Caritas identifizieren und die Bereitschaft zeigen, diese im Berufsalltag zu praktizieren und zu leben Bei uns erwartet Sie... eine wertschätzende Zusammenarbeit im Leitungsteam und deren Weiterentwicklung eine Tätigkeit mit geregelten Arbeitszeiten, ohne Schicht- und Wochenenddienst viel Raum für Kreativität, Gestaltung und Mitbestimmung die Möglichkeit zur Nutzung eines Dienstwagens und die Erstattung von Fahrtkosten die feste Einbindung in unser Fachteam mit Besprechungen und regelmäßiger Fallsupervision eine attraktive AVR-Vergütung (angelehnt an den TVöD) mit regelmäßigen Gehaltserhöhungen durch Stufenaufstiege und Tariferhöhungen eine Jahressonderzahlung und ein zusätzliches Leistungsentgelt pro Jahr 30 Tage Jahresurlaub (bei einer 5-Tage-Woche) und bis zu maximal 2 Regenerationstagen pro Jahr zusätzlich 2 arbeitgeberfinanzierte dienstfreie Tage am 24.12. und 31.12. unter Berücksichtigung der Einsatzzeiten überdurchschnittliche Sozialleistungen wie arbeitgeberfinanzierte betriebliche Altersvorsorge, Krankenzusatzversicherung und Vermögenswirksame Leistungen die bezahlte Freistellung von der Tätigkeit in der Einrichtung zur persönlichen und beruflichen Weiterentwicklung für bis zu 5 Tagen für Fortbildungen/Zusatzqualifikationen und bis zu 3 Tagen zur Besinnung durch unser verbandseigenes Institut für Bildung und Entwicklung ein Zuschuss zur Nutzung des Deutschlandticket-Job (DB) und die Möglichkeit ein Business Bike zu leasen ein breites Angebot an Vergünstigungen bei Benefits.me Gesundheitsförderung durch betriebliches Gesundheitsmanagement ein sicherer Arbeitsplatz bei einem großen Träger mit vielfältigen Entwicklungsmöglichkeiten eine verantwortungsvolle Aufgabe, bei der sich Familie und Beruf gut miteinander vereinbaren lassen viel Raum für Kreativität, Gestaltung und Mitbestimmung eine sinnstiftende Tätigkeit mit gesellschaftlichem Mehrwert weitere Arbeitgeber-Leistungen und Benefits, die Sie hier finden Sie möchten uns kennenlernen?
Modernisierung der Datenplattform (Oracle, Snowflake) Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-Pipelines Analyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-Zielmodelle Erstellung und Pflege unternehmensweiter Datenmodelle sowie Architekturstandards Mitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-Prozessen Abstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und Architekturentscheidungen Nutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z. B. CI/CD, Automatisierung) Fundierte Berufserfahrung im Bereich Data Warehousing, Datenmodellierung oder Datenarchitektur Sehr gute Kenntnisse in Snowflake (Modellierung, Performance, Berechtigungen, SQL) Erfahrung mit Oracle-Datenstrukturen und Migrationen Umfassende SQL-Skills und Erfahrung in Cloud-Umgebungen (AWS/Azure/GCP) Erfahrung mit ELT-/ETL-Tools (z.
Ihre Aufgaben: Betrieb und Administration zentraler IT Infrastrukturen im Rechenzentrum Administration und Weiterentwicklung von Backup Lösungen mit HP Data Protector und Commvault Betreuung von Microsoft Windows und Linux Server Umgebungen Administration von VMware ESXI und Pflege von Active Directory Strukturen Technische Beratung und strategische Weiterentwicklung im Bereich Service und Support Unterstützung bei Outtasking und Outsourcing geschäftskritischer Services Erstellung von Systemdokumentationen, Sicherheitskonzepten sowie Risiko und Notfallplänen nach BSI Vorgaben Strukturierte Erhebung und Analyse von Anforderungen Erstellung von IT Konzepten Übernahme von Infrastruktur Services im Rahmen von Transition Management sowie Roll Out und Roll In Unterstützung von Rollout, Migrations und Infrastrukturprojekten in komplexen heterogenen Server und Client Infrastrukturen im Umfeld der öffentlichen Verwaltung Projektmanagement und IT Consulting Tätigkeiten Ihr Profil: MUST HAVE Mindestens fünf Jahre Erfahrung in den letzten elf Jahren im Betrieb zentraler IT Infrastrukturen im Service und Support Mindestens zehn Jahre umfassende Praxiserfahrung mit HP Data Protector, Commvault, Microsoft Windows Server, Linux Server, VMware ESXI sowie Active Directory Pflege und Administration Mindestens fünf Jahre fortgeschrittene Praxiserfahrung mit Rechenzentrumsplattformen insbesondere VMware Mindestens fünf Jahre Erfahrung im Outtasking beziehungsweise Outsourcing geschäftskritischer und zentraler Services Mindestens zwei Jahre Praxiserfahrung in technischer Beratung sowie strategischer Entwicklung im Bereich Service und Support Mindestens ein Jahr Erfahrung in der Erstellung von Systemdokumentationen, Sicherheitskonzepten, Risiko und Notfallplänen nach BSI Vorgaben in den letzten vier Jahren Mindestens ein Jahr praktische Erfahrung in strukturierter und methodenorientierter Anforderungserhebung und Analyse in den letzten drei Jahren Mindestens zwei Jahre Erfahrung in Projektmanagement Mindestens zwei Jahre Erfahrung in IT Consulting Mindestens zwei Jahre Erfahrung in der Erstellung von IT Konzepten Mindestens zwei Jahre Erfahrung bei der Übernahme von Infrastruktur Services im Rahmen von Transition Management, Roll Out und Roll In Nachweisbare Projekterfahrung in der öffentlichen Verwaltung in mindestens drei abgeschlossenen Rollout, Migrations und Infrastrukturprojekten Gültige Sicherheitsüberprüfung gemäß § 8 Abs. 1 Nr. 3 LSÜG BW zum Zeitpunkt der Angebotsabgabe Sicherer Umgang mit gängigen Office Anwendungen Rahmenparameter: Einsatzort: Stuttgart Laufzeit: nach Zuschlag bis Ende 2026 + Option auf Verlängerung Auslastung: Vollauslastung Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.
Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl. Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl.
Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl. Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl.
Konzeption und Umsetzung von Automatisierungslösungen im Firewall-Umfeld (FortiGate, FortiManager, FortiAnalyzer Entwicklung und Betrieb von Automatisierungs-Workflows mit GitLab, Ansible und Python Verwaltung und Pflege von Firewall-Objekten in GitLab unter Einhaltung von Zonenkonzept, Namenskonventionen und Governance Planung und Durchführung der Migration von Firewall-Regeln (insbesondere Check Point, FortiGate) Testing, Qualitätssicherung und Dokumentation entwickelter Lösungen Fundierte Erfahrung im Betrieb und in der Konfiguration von Fortinet-Produkten Sehr gute Kenntnisse in Ansible- und Python-Automatisierungen Erfahrung mit GitLab (CI/CD, Repositories, Pipelines, Workflows) Praxis in Firewall-Migrationen, idealerweise Check Point, Fortinet Gute Kenntnisse von Netzwerkarchitekturen, Zonenkonzepten und Security-Best-Practices Strukturierte, konzeptionelle Arbeitsweise und Erfahrung mit nachhaltigen Automationslösungen Sehr gute Deutschkenntnisse; Englisch von Vorteil Arbeit mit modernem Firewall- und Automatisierungsstack (Fortinet, GitLab, Ansible, Python) Spannende Projekte wie komplexe Firewall-Migrationen und Automationsarchitekturen Möglichkeit, technische Standards, Governance und Automationsprozesse maßgeblich mitzugestalten Ihr Kontakt Referenznummer 865769/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Das ist die Aufgabe Unterstützung bei der Entwicklung und Umsetzung von Datenanalysen im Rahmen der globalen Kundendatenstrategie Auf- und Ausbau von Data-Analytics-Use-Cases & Dashboards zur Unterstützung von Marketing- & Vertriebsentscheidungen, u.a. zur Analyse und Optimierung der Kundenzufriedenheit Datenaufbereitung, -modellierung und -visualisierung mit Tools wie Python, PySpark und Power BI Durchführung explorativer Datenanalysen zur Identifikation von Mustern und Trends im Kundenverhalten Als Teil unseres übergreifenden Data Analytics-Teams enge Zusammenarbeit u.a. mit unseren Product Ownern, Data Analysts, Data Scientists & Data Engineers Das wünschen wir uns Studium der Fachrichtung (Wirtschafts-) Informatik oder vergleichbare Studiengänge Erste Erfahrungen mit gängigen Tools zur Datenanalyse & -visualisierung (idealerweise mit Microsoft Power BI und Python) Praktische Vorkenntnisse im Bereich Data Analytics bzw.
Du verantwortest die Definition von Standards und Richtlinien für die Entwicklung effizienter Data Management & Data Engineering Prozesse. Du etablierst DevOps Pipelines und Automatisierung, um unsere Prozesse kontinuierlich zu verbessern.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Analyse, Design und Implementierung von Backend- und Frontend-Komponenten Unterstützung bei der Migration der bestehenden Anwendungen und Services Mitarbeit an der Containerisierung und CI/CD-Pipeline-Automatisierung Enge Zusammenarbeit mit Fachbereichen, Architekten und dem Team Sicherstellung von Qualität, Performance und Stabilität der Anwendungen Erfahrung in der Java-Full-Stack-Entwicklung Sicherer Umgang mit Cloud-native Technologien und Containern Erfahrung in der Migration von Anwendungen in moderne Plattformen (idealerweise OCP4) Attraktive Vergütung Flexible Arbeitszeiten Schneller Einstieg in die Versicherungsbranche Professionelle Begleitung und Unterstützung während des Bewerbungsprozess Ihr Kontakt Ansprechpartner Jaqueline Da Silva Luis Referenznummer 864478/1 Kontakt aufnehmen E-Mail: jaqueline.da.silva.luis@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Sie können Ihre Karriere bei IQVIA aktiv gestalten und den Weg wählen, der Ihre Entwicklung und Ihren Erfolg am besten unterstützt. Durch Einblicke in verschiedene Regionen, Kompetenzen sowie therapeutische und technologische Bereiche können Sie sich ohne Grenzen weiterentwickeln.
Auch Du sollst wachsen, daher ist uns Deine persönliche und fachliche Entwicklung besonders wichtig.Du profitierst von einem erfahrenen Mentor, individuellen Einarbeitungskonzepten und Weiterbildungen sowie Projektverantwortung.Um Dein Vertrauen in uns zurückzugeben, bieten wir Dir ein attraktives Gehaltspaket (z.B.
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
Darauf hast Du Lust: In deiner Rolle als „Data Engineer (m/w/d)“ bist Du verantwortlich für die Entwicklung, Pflege und Optimierung von Dateninfrastrukturen und -prozessen. Damit ermöglichst Du eine effiziente und sichere Bereitstellung von Daten für Analyse- und Reportingzwecke und kümmerst Dich um die Datenmodellierung, ETL-Prozesse sowie die Data Warehouse-Automatisierung.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord mit dem Ziel, das international einheitliche Kennzahlenreporting zur Steuerung aller Filialen zu erweitern Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du konzipierst und entwickelst Datentransformationsprozessen (z.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du konzipierst und entwickelst Datentransformationsprozessen (z.
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Da wir uns vorab gerne einen fachlichen Eindruck unserer neuen Teammitglieder verschaffen möchten, bitten wir Sie um eine ausführliche Vita mit Projektliste so wie der Angabe sämtlicher fachlicher Fähigkeiten (z.B. Tools & Werkzeuge, Entwicklungs-sprachen, Frameworks, Datenbanken, Methoden etc.). Bitte geben Sie stets die [Stellennummer] mit an! Ihre Informationen und Daten behandeln wir selbstverständlich vertraulich.
Für mehr Wohlbefinden und Balance im Alltag.Wachstum garantiert: Wir bringen nicht nur Pflanzen zum Wachsen – auch Ihre berufliche Entwicklung liegt uns am Herzen. Mit gezielter Unterstützung und individuellen Entwicklungsprogrammen sorgen wir dafür, dass Sie beruflich aufblühen und Ihre Talente voll entfalten können.Vielseitig profitieren: Bei Dehner wissen wir, dass Leistung fair belohnt werden muss.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Teilprojektleitung in internationalen Projekten im Bereich Data- / Process Mining, Data Analytics und maschinelles Lernen Koordination und Steuerung von internen IT-Ressourcen, externen Partnern und Mitarbeitern der Fachabteilung Mitarbeit in Projekten außerhalb des eigenen Verantwortungsbereichs bei Bedarf Ihr Profil: Erfolgreich abgeschlossenes Studium aus dem Bereich Informationstechnologie, Data Science oder eine gleichwertige Ausbildung Mehrjährige Erfahrung im Bereich Qlik Sense Entwicklung Mehrjährige Berufserfahrung als Projektleiter oder Consultant, idealerweise in einem produzierenden Unternehmen (z.B. Maschinen-/Anlagenbau) von Vorteil Sehr gute Kenntnisse im Bereich ETL, Datenmodellierung und Reporting Kenntnisse über Datenstrukturen in SAP ERP und S/4HANA wünschenswert Kenntnisse im objektorientierten Design und der Softwarequalität Sehr gute analytische Fähigkeiten und ein starker Sinn für Geschäftsprozesse und Business Prioritäten Eigenständige, strukturierte und lösungsorientierte Arbeitsweise Sehr gute Kommunikations- und zwischenmenschliche Fähigkeiten Sichere Kommunikation in Deutsch und Englisch Reisebereitschaft (ca. 15%) Haben wir Ihr Interesse geweckt?
Das machst du Als (Senior) Data Engineer (all genders) gestaltest du unsere BI & Analytics-Projekte aktiv mit und entwickelst diese fachlich und inhaltlich weiter. Entwicklung und Konzeptionierung: Du entwickelst auf Basis aktueller Methoden und Technologien auftragsbezogene BI- und Analytics-Lösungen, die auf individuelle Kundenanforderungen zugeschnitten sind.
Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt. Relationale Datenbanken und Data-Warehouse-Modellierung sind dir vertraut. Du konntest bereits mit Spark oder anderen verteilten Systemen arbeiten.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B.
Union Investment sucht in eine/n Data-Analyst*in DLT & Blockchain in der Segmentsteuerung und -entwicklung (ID-Nummer: 13732623)
Arbeitsort: Böblingen Ihre Aufgaben Übergreifende Abstimmung zur Entwicklung eines Datenökosystems für die gesamte Supply Chain Unterstützung und Beratung beim Einsatz von innovativen Digitalisierungstechnologien (Data Analytics, Cloud, …) Steuerung des komplexen Umsetzungsprozesses bis zur Realisierung und Erfolgsabsicherung der erarbeiteten Digitalisierungslösungen Anwendung von agilen Methoden, wie bspw.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Verantwortung für erfolgreiche Data-, Analytics- und KI-Projekte als Projektmanager und Schnittstelle zwischen Business und TechnikBeratung von Kunden zu datengetriebenen Strategien, Chancen und Risiken Offenes Ohr für Kundenbedürfnisse und Problemstellungen zur Identifikation von Trends Konzeption von Data-, Analytics- und KI-Lösungen und Auswahl passender Methoden Gestaltung und Weiterentwicklung der unternehmensinternen Data-Engineering-AktivitätenAnalyse des Einsatzes generativer KI zur Identifikation neuer Chancen für KundenAufbau nachhaltiger Kundenbeziehungen durch die Entwicklung individueller LösungenAktive Gestaltung von Workshops und Beiträgen zur Unterstützung des Teams beim Know How-Transfer Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in der Beratung und Konzeption rund um Data EngineeringSehr gutes Verständnis für moderne Datenarchitekturen, Cloud-Technologien und Data-Governance-Frameworks Die Fähigkeit, Anwendungspotenziale und Auswirkungen von Generativer KI zu identifizieren und zu erläuternAusgezeichnete Kommunikationsfähigkeit auf Deutsch und Englisch mit technisch versierten sowie fachfremden ZielgruppenVisionäre Denkweise und hast die Fähigkeit, Trends frühzeitig zu erkennen und interne strategische Initiativen voranzutreiben Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Verantwortung für erfolgreiche Data-, Analytics- und KI-Projekte als Projektmanager und Schnittstelle zwischen Business und Technik Beratung von Kunden zu datengetriebenen Strategien, Chancen und Risiken Offenes Ohr für Kundenbedürfnisse und Problemstellungen zur Identifikation von Trends Konzeption von Data-, Analytics- und KI-Lösungen und Auswahl passender Methoden Gestaltung und Weiterentwicklung der unternehmensinternen Data-Engineering-Aktivitäten Analyse des Einsatzes generativer KI zur Identifikation neuer Chancen für Kunden Aufbau nachhaltiger Kundenbeziehungen durch die Entwicklung individueller Lösungen Aktive Gestaltung von Workshops und Beiträgen zur Unterstützung des Teams beim Know How-Transfer Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in der Beratung und Konzeption rund um Data Engineering Sehr gutes Verständnis für moderne Datenarchitekturen, Cloud-Technologien und Data-Governance-Frameworks Die Fähigkeit, Anwendungspotenziale und Auswirkungen von Generativer KI zu identifizieren und zu erläutern Ausgezeichnete Kommunikationsfähigkeit auf Deutsch und Englisch mit technisch versierten sowie fachfremden Zielgruppen Visionäre Denkweise und hast die Fähigkeit, Trends frühzeitig zu erkennen und interne strategische Initiativen voranzutreiben Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Das Studium bietet Dir eine hohe Praxisorientierung und intensive Betreuung durch das Dozent*innen-Team der THA in kleinen Lerngruppen.Du arbeitest gemeinsam im Team innerhalb unserer Projekte, z.B. im Web-, Cloud- oder IoT-Bereich.Du bearbeitest einzelne Tasks selbstständig.Du lebst mit uns gemeinsam die agile Software-Entwicklung in Daily Stand-ups, Sprint Reviews beim Kunden und Retrospektiven mit Unterstützung unserer Agile Coaches.Du möchtest Data Science (B.Sc.) an der Technischen Hochschule Augsburg studieren.Du verfügst über grundlegende PC-Kenntnisse, hast großes Interesse an Mathematik und damit eine hohe Affinität für Zahlen und Daten.Du hast Spaß und Interesse daran, neue Technologien im Zeitalter von KI sowie die Grundlagen der Softwareentwicklung zu lernen.Du hast eine selbstständige und eigenverantwortliche Arbeitsweise, um Dich in neue Themen einzuarbeiten.Du bist aufgeschlossen und hast Freude an Teamarbeit.Du verfügst über fließende Deutsch- und Englischkenntnisse.Daniela +49 821 885882-0 work@xitaso.com
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining)Entwicklung und Implementierung von Datenmodellen zur ProzessoptimierungNutzung von Google Cloud Platform (GCP) für Datenmanagement und AnalyseAufbau von skalierbaren Datenpipelines und ETL-ProzessenZusammenarbeit mit internen Fachbereichen zur Digitalisierung und AutomatisierungLangfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer FachrichtungErfahrung als Data Scientist oder in einer ähnlichen RolleFundierte Kenntnisse in:Google Cloud Platform (BigQuery, AI/ML-Services)Programmiersprachen: Python, SQLData Analytics, Machine Learning, Data MiningErfahrung mit ETL-Prozessen und Cloud-ArchitekturenAnalytisches Denken, strukturierte Arbeitsweise und KommunikationsstärkeSehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAngenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener KommunikationsstilJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Teamführung und Koordination (ca. 50 %) / Technische Verantwortung (ca. 50 %) Fachliche Führung und Unterstützung des Teams im Bereich Data Engineering Planung, Organisation und Koordination datenbezogener Aktivitäten über mehrere Teams hinweg Sicherstellung eines strukturierten Informationsflusses zwischen technischen und nicht-technischen Stakeholdern Planung, Nachverfolgung und Reporting von Data-Engineering-Aufgaben und Deliverables Pflege und Aktualisierung der Dokumentation zu Datenpipelines, Workflows und Systemarchitekturen Sicherstellung der Einhaltung interner Standards, Prozesse sowie Data-Governance-Richtlinien Identifikation von Optimierungspotenzialen und kontinuierliche Verbesserung von Prozessen und Tools Entwicklung und Wartung performanter, zuverlässiger und verteilter Anwendungen unter Anwendung funktionaler Programmierprinzipien Aufbau und Optimierung datenintensiver Workflows mit Apache Spark bzw. vergleichbaren Frameworks Entwicklung skalierbarer Datenlösungen in Databricks mit Fokus auf Resilienz und Elastizität in großen Deployments Implementierung effizienter, wartbarer und gut testbarer Softwarelösungen in Python Fundierte Erfahrung in funktionaler Programmierung, z.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen. Zusätzlich steht dir ein Coach zur Seite, der dich bei deiner beruflichen und persönlichen Entwicklung unterstützt.Gesundheit & Wohlbefinden: Wir unterstützen dich mit Angeboten wie Massagen, Hansefit, Dienstrad-Leasing sowie regelmäßigen Festen und Teamevents.Workation: Arbeite flexibel von verschiedenen Orten aus – mit unserem Workation-Angebot.Zusätzliche Benefits: Freue dich auf eine jährliche Prämie sowie Zuschüsse zur Altersvorsorge und Kinderbetreuung.Arbeitsklima: Ein ausgezeichnetes Betriebsklima mit hoher Mitarbeiterzufriedenheit macht uns besonders stolz.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.